技術 2026年4月25日(土) 約10分 SwiftLMで非Qwen系MoEのLing-flash-2.0 MXFP4をM1 Max 64GBで動かす Ant Group系列のinclusionAIが公開したLing-flash-2.0(bailing_moe、100B A6.1B、MXFP4量子化)をSwiftLMで食わせてみた記録。mlx-swift-lmのbailing_moe対応状況の確認から起動までを追う。 Apple Silicon LLM MLX ローカルLLM Swift SwiftLM MoE MXFP4 Ant Group 実験
技術 2026年4月24日(金) 更新 約13分 WAI-Illustrious v17を試す 手足補正・レーティング4段階・v16学習のLoRAは生き残るか WAI-Illustrious SDXL v17がリリースされた。目玉はhires fixの手足自動補正。M1 Max 64GBのComfyUIで同一seedでv16と比較し、general/sensitive/nsfw/explicitのレーティング4段階、NSFW発動条件、v16で学習したかなちゃんLoRA (04/05) の効き具合を見た。 AI 画像生成 ComfyUI Stable Diffusion LoRA Apple Silicon 実験
技術 2026年4月24日(金) 約12分 SwiftLMをM1 Max 64GBで動かしてOllama/MLX-lmと比べてみた Swift製LLM推論サーバーSwiftLMをM1 Max 64GBで実際にビルド・起動して、Qwen3.6-35B-A3Bと122B-A10Bの挙動を確認。BST・簡易BBS・かなちゃんペルソナの3系統で既存のOllama・MLX-lm検証と突き合わせた。 Apple Silicon LLM MLX ローカルLLM Swift SwiftLM MoE 実験
技術 2026年4月23日(木) 約18分 open-notebookをDockerもクラウドAPIも使わずM1 Maxで動かしてqwen3.6:35bに自分の記事を読ませた NotebookLMクローンのopen-notebookはデフォルトがDocker前提+クラウドAPI前提。SurrealDBをネイティブで入れて4プロセスをtmuxで立ち上げ、Ollamaのqwen3.6:35bとbge-m3だけでRAGを回した。自分が今朝書いたQwen3.6比較記事を食わせたら、正しい数値で答えた。 AI LLM ローカルLLM Ollama Qwen Apple Silicon RAG OSS 実験
技術 2026年4月23日(木) 約12分 Qwen3.6-27B DenseとQwen3.6-35B-A3B MoEをM1 Maxで比べたらMLXがOllamaの2倍速だった Qwen3.6-27BをOllama/MLX両方で試したらOllamaはVLプロジェクタ付きGGUFをロードできず、MLXでは11 tok/sで動いた。ついでに35B-A3BをMLXで動かしたらOllama GGUFの2倍速。BBSを両モデルに作らせて意図汲み取りの差も見た。 LLM ローカルLLM Qwen Ollama MLX Apple Silicon MoE 実験
技術 2026年4月21日(火) 更新 約9分 Qwen3.6-35B-A3BをOllamaでM1 Max 64GBに流したら思考が13倍に膨らんだ Ollama 0.20.6でQwen3.6-35B-A3Bを試した記録。Gated DeltaNet対応済みで生成速度はQwen3.5と同じ27 tok/s、ただし思考トークンは13倍。マルチターン・ペルソナ・NSFW三段階の挙動もまとめた。 LLM ローカルLLM Qwen Ollama Apple Silicon MoE 実験
技術 2026年4月17日(金) 約11分 Z-Image i2iでドット絵変換できるか試した Illustrious i2i + pixel-art-xl LoRAが最速だったドット絵変換に、Z-Image用ピクセルアートLoRAという別ルートがあった。LoRAの互換性、利用可能なLoRA、メモリ要件を調査。 Z-Image 画像生成 Apple Silicon 実験
技術 2026年4月16日(木) 更新 約12分 WAI-Illustriousの新版探してたらWAI-Animaが出てたので試した WAI-Illustriousで知られるWAI0731がAnima派生モデル WAI-Anima v1をリリース。2月のAnima記事から2ヶ月で派生モデルが急増し、LoRAツールキットやテキストエンコーダのアップグレードも登場。preview3-baseとWAI-Anima v1を実際に動かして比較した。 AI 画像生成 ComfyUI Qwen Apple Silicon Stable Diffusion LoRA 実験 Anima WAI-Anima
技術 2026年4月16日(木) 約13分 AMD ROCmのCUDA追い上げはどこまで来たか EE TimesのAMD AI Software VP Anush Elangovan氏インタビューをベースに、ROCmとCUDAのエコシステム差を整理。Strix HaloでROCmを使い続けて4回壊れた実体験と、NVIDIA・AMD・Apple Siliconの実務での使い分けも。 AMD NVIDIA ROCm CUDA GPU AIインフラ PyTorch MLX Apple Silicon
技術 2026年4月14日(火) 約10分 Qwen Image Editで写真をドット絵に変換できるか試す Qwen Image Edit、JS減色、Illustrious i2i + LoRAなど5パターン試して、最終的にIllustrious i2i単体が最速・最軽量でドット絵変換できることがわかった。 Qwen 画像生成 Apple Silicon 実験
技術 2026年4月14日(火) 約14分 ローカルVision LLMでキャラ画像からRPGパラメータを抽出できるか試した Gemma、Qwen2.5-VLなどのローカルVision LLMにキャラクターの立ち絵やドット絵を入力し、RPG風のステータスをJSON形式で返せるか実験した記録。 AI ローカルLLM VLM 画像認識 Ollama Gemma Qwen Apple Silicon 実験
技術 2026年4月2日(木) 更新 約13分 SwiftLMはTurboQuantとSSDストリーミングをMetalシェーダーに統合したSwift製LLM推論サーバー Apple Silicon専用のMLX推論サーバーSwiftLMが、TurboQuant V2+V3ハイブリッドKVキャッシュ圧縮とNVMe SSDエキスパートストリーミングをネイティブMetal実装で提供する。 Apple Silicon LLM MLX ローカルLLM 推論最適化 KVキャッシュ MoE Swift